首页> 外文OA文献 >Minimum Description Length Principle for Maximum Entropy Model Selection
【2h】

Minimum Description Length Principle for Maximum Entropy Model Selection

机译:最大熵模型选择的最小描述长度原理

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Model selection is central to statistics, and many learning problems can beformulated as model selection problems. In this paper, we treat the problem ofselecting a maximum entropy model given various feature subsets and theirmoments, as a model selection problem, and present a minimum description length(MDL) formulation to solve this problem. For this, we derive normalized maximumlikelihood (NML) codelength for these models. Furthermore, we prove that theminimax entropy principle is a special case of maximum entropy model selection,where one assumes that complexity of all the models are equal. We apply ourapproach to gene selection problem and present simulation results.
机译:模型选择是统计的核心,许多学习问题可以表述为模型选择问题。在本文中,我们将选择给定各种特征子集及其矩的最大熵模型的问题作为模型选择问题,并提出最小描述长度(MDL)公式来解决此问题。为此,我们导出了这些模型的归一化最大似然(NML)码长。此外,我们证明了最小极大熵原理是最大熵模型选择的一种特殊情况,其中假设所有模型的复杂度都相等。我们将我们的方法应用于基因选择问题并给出仿真结果。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号